19 research outputs found
Automatic Generation of Optimized Process Models from Declarative Specifications
Process models often are generic, i. e., describe similar cases or contexts. For instance, a process model for commissioning can cover both vehicles with an automatic and with a manual transmission, by executing alternative tasks. A generic process model is not optimal compared to one tailored to a specific context. Given a declarative specification of the constraints and a specific context, we study how to automatically generate a good process model and propose a novel approach. We focus on the restricted case that there are not any repetitions of a task, as is the case in commissioning and elsewhere, e. g., manufacturing. Our approach uses a probabilistic search to find a good process model according to quality criteria. It can handle complex real-world specifications containing several hundred constraints and more than one hundred tasks. The process models generated with our scheme are superior (nearly twice as fast) to ones designed by professional modelers by hand
Text Mining: Wissensgewinnung aus natürlichsprachigen Dokumenten
Das noch recht junge Forschungsgebiet "Text Mining" umfaßt eine
Verbindung von Verfahren der Sprachverarbeitung mit Datenbank-
und Informationssystemtechnologien. Es entstand aus der
Beobachtung, dass ca. 85% aller Datenbankinhalte nur in
unstrukturierter Form vorliegen, so dass sich die Techniken des
klassischen Data Mining zur Wissensgewinnung nicht anwenden
lassen. Beispiele für solche Daten sind Volltextdatenbanken mit
Büchern, Unternehmenswebseiten, Archive mit Zeitungsartikeln
oder wissenschaftlichen Publikationen, aber auch Ströme
kontinuierlich auflaufender Emails oder Meldungen von
Nachrichtenagenturen (Newswires).
Im Gegensatz zum Information Retrieval geht es beim Text Mining
nicht darum, lediglich Dokumente anhand von Anfragen
aufzufinden, sondern aus einem einzelnen oder einem Satz von
Dokumenten neues Wissen zu gewinnen, etwa durch automatische
Textzusammenfassungen, die Erkennung und Verfolgung benannter
Objekte oder die Aufdeckung neuer Trends in Forschung und
Industrie. Durch die ständig wachsende Zahl elektronisch
verfügbarer Texte werden automatisch arbeitende Verfahren zur
Bewältigung der Informationsflut immer dringender, was Text
Mining zu einem sehr aktiven und auch kommerziell interessanten
Forschungsgebiet macht.
Der vorliegende Bericht enthält eine Auswahl von Themen, die von
Studierenden der Universität Karlsruhe im Rahmen eines
Hauptseminars am IPD im Wintersemester 2004/2005 erarbeitet
wurden. Sie reichen von den Grundlagen der Computerlinguistik
über einzelne Algorithmen zur Sprachverarbeitung bis hin zu
konkreten Anwendungen im Text Mining. Zahlreiche
Literaturreferenzen zu jedem Kapitel sollen dem Leser eine
weitergehende Studie der einzelnen Themen ermöglichen
A Practical Data-Flow Verification Scheme for Business Processes
Data in business processes is becoming more and more important. Current standards for process-modeling languages like BPMN 2.0 which include the data flow reflect this. Ensuring the correctness of the data flow in processes is challenging. Model checking, i. e., verifying properties of process models, is a well-known technique to this end. An important part of model checking is the construction of the state space of the model. State-space explosion however typically is in the way of an effective verification. We study how to overcome this problem in our context by means of reduction. More specifically, we propose a reduction on the level of the process model. To our knowledge, this is new for the data-flow analysis of processes. To accomplish this, we specify regions relevant for the verification of properties describing the data flow. Our evaluation shows that our approach works well on real process models
Verifying Workflow Models with Data Values - a Case Study of SMR Spectrum Auctions
Industry takes a great interest in verification techniques to improve the reliability of process designs. Providing reliable design in application domains like spectrum auctions is crucial. Spectrum auction revenue is considered as one of the principal sources for governmental income. Hence, analyzing the auction design before applying it can ensure absence of undesirable results of an auction. Those results might even be bad, if they occur with a probability of just higher than zero. Current verification approaches are mainly devoted to verify control ows only, although data values play a significant role in real life applications. Thus, these approaches are not sufficient to support data-centered work ows as spectrum auctions. We address this issue by providing a new data-centered verification approach to analyze Simultaneous Multi-Round (SMR) auction design in BPMN format. We show how to enhance a BPMN model by including important information, namely data values used in the work ow, which the standard BPMN 2.0 does not support. An example of a data value in a SMR auction is the "auctioneer\u27s revenue". To enable the verification of data-centered properties, we have developed a transformation of a data-value enhanced BPMN model to Petri Nets respecting the semantics of certain data value usages. For that, we support dynamic and correlated data values. By employing a model checker and defining data-centered properties in CTL formula, we verify SMR auction models to find undesirable executions for auctioneers. For example, we can precisely detect the worst values of three important measures in auctions: efficiency, revenue, and bidder\u27s profit. With it, we can not only find the undesirable outcomes, but also provide a counter-example to help an auctioneer to improve the auction design
Unterstützung der integrierten Gebäudeplanung und -verwaltung mit einem topologischen Kerndatenmodell
An einem Teil der Topologie architektonischer Räume, dem Volumenadjazenzgraphen (VAG), wird gezeigt wie topologisches Modellieren Anwendungen der Bauplanung integrieren kann. Dazu wird ein Prototyp vorgestellt, der im wesentlichen aus drei Komponenten besteht: Mit dem Anforderungsmanager werden Anforderungen eigegeben, die formal gut handhabbar sind. Mit dem Topologiemanager werden diese Anforderungen mit gezeichneten Räumen kombiniert. Die topologischen Relationen in den Zeichnungen werden mit den entsprechenden Mitteln des GIS berechnet und in eine Datenbank exportiert. Der Anforderungsprüfer vergleicht dann die Anforderungsdaten, die mit Hilfe des Anforderungsmanagers erzeugt wurden, mit den Topologiedaten. Dieser Ansatz soll zeigen, wie topologische Modelle eine Formalisierung semantisch hochstehender Informationen ermöglichen, indem sie als Eigenschaften von Graphen dargestellt werde
Detecting Data-Flow Errors in BPMN 2.0
Data-flow errors in BPMN 2.0 process models, such as missing or unused data, lead to undesired process executions. In particular, since BPMN 2.0 with a standardized execution semantics allows specifying alternatives for data as well as optional data, identifying missing or unused data systematically is difficult. In this paper, we propose an approach for detecting data-flow errors in BPMN 2.0 process models. We formalize BPMN process models by mapping them to Petri Nets and unfolding the execution semantics regarding data. We define a set of anti-patterns representing data-flow errors of BPMN 2.0 process models. By employing the anti-patterns, our tool performs model checking for the unfolded Petri Nets. The evaluation shows that it detects all data-flow errors identified by hand, and so improves process quality
ArchE : Entwicklung einer datenbankunterstützten Architektur-Entwurfsumgebung; ein Anforderungsbericht
Eine Datenbankunterstützung des integrierten architektonischen Entwurfes stellt mannigfaltige Anforderungen, die von heutigen Datenbanksystemen nicht erfüllt werden können. Dieser Bericht hat zum Ziel, den allgemeinen architektonischen Planungsprozeß und speziell eine neuartige Entwurfsmethodik, die auf einem mehrdimensionalen Entwurfsraum, dem sogenannten A4--Raum basiert, zu beschreiben und hieraus die Anforderungen an die Funktionalität und die grundlegenden Konzepte einer Datenbankunterstützung für den Gebäudeentwurfsbereich abzuleiten
Verteilung und Integration von Informationen im Verkehrsbereich
Verteilung und Mobilität spielen in der Verkehrstelematik eine
große Rolle. Die verwendeten Datenquellen sind im Allgemeinen
heterogen und von unterschiedlicher Qualität. Im Rahmen des
Verbundprojektes OVID der Universität Karlsruhe (TH) bot das
Institut für Programmstrukturen und Datenorganisation (IPD) im
Sommersemester 2004 ein Seminar mit dem Titel "Verteilung und
Integration von Informationen im Verkehrsbereich" an. In diesem
Seminar wurden Fragestellungen untersucht, die sich mit den
Anforderungen und existierenden Techniken für hochgradige
Verteilung und Mobilität von Datenquellen im Verkehrsbereich
beschäftigten. Die dabei erzielten Ergebnisse werden in diesem
Bericht vorgestellt